https://khabarfarsi.com/u/144325081/tlgr
/خودکشی مردی پس از 6 هفته گفتگو با چت ربات هوش مصنوعی/ بررسی سوابق گفتگو های مکتوب پی یر با این چت ربات هوش مصنوعی نشان می دهد که الیزا نگرانی های او را تایید و تقویت می کرد؛ کاری که باعث تشدید سطح اضطراب در او می شد و درنهایت به افکاری درباره خودکشی سوق داده شد